Dieser Audiobeitrag wird von der Universität Erlangen-Nürnberg präsentiert.
Das Problem, das wir beachten, ist die folgende.
Wir haben in der zweidimensionalen Featurespace Feature Points.
Und wir wollen hier diese zwei Kluster finden,
mit einem Algorithm.
Und die Detektion der Kluster sollte automatisch gemacht werden.
Was wir tun, ist, wir definieren zwei Behandlungswektoren.
Und diese Behandlungswektoren sind bezeichnet als Codebook-Vektoren.
Und diese Codebook-Vektoren sind nichts anderes am Ende des Tages als die Meen-Vektoren.
Wir nennen diese hier Codebook-Vektoren 1 und hier Codebook-Vektoren 2.
Und die Frage ist, wie wir diese Codebook-Vektoren kompüten,
aufgrund der Feature-Vektoren.
Um eine kurze Geschichte zu zeigen,
die letzte Zeit, als wir unseren Orel-Axel hatten,
habe ich ein Student gefragt, ob er einen zweidimensionalen Feature-Vektoren schreien kann.
Und der Student hat das gemacht.
Wenn wir über zweidimensionale Feature-Vektoren reden,
dann haben wir immer diese Punkte.
Also, das müssen wir in der Sicht der Punkte halten.
Wir schauen uns an, wie wir Punkte und Kluster in der Späte kompüten.
Und wie kompüten wir die Codebook-Vektoren?
Was wir immer in der Pattern-Rekognition, Pattern-Analysierung, Computer-Revision tun,
ist, dass wir meistens eine objektive Funktion definieren.
Wir minimieren oder maximieren die objektive Funktion.
Und das Pattern-Rekognition-Problem wird eigentlich durch minimieren
oder maximieren die objektive Funktion.
Das Optimierungsproblem, das wir gestern, nein, letzte Woche,
wenn wir K-Kluster haben, dann estimieren wir diese Vektoren, indem wir die Codebook-Vektoren kompüten,
die die objektive Funktion J eigentlich minimieren,
wo in unserem Fall J die Summe über alle Features war.
Erinnern Sie sich, unsere Features sind von I indexiert, und der Numer von Features ist N.
Dies wird in der Unterrichtung konsistenziell benutzt.
Und dann haben wir die Summe über alle J von 1 bis K.
Das Numer von Kluster ist denotiert von K.
Und wir benutzen Cij.
Was ist Cij?
Cij ist eine 0,1-Funktion, und es zeigt, ob die I-Feature in die J-Klasse fällt.
Wenn Cij 1 ist, bedeutet das Feature-Nummer I, oder indexiert von I, also xI, in Klasse J fällt.
Und 0 anders.
Und dann kompüten wir die Distanz, die Similarität, oder einen Indikator für Similarität,
wir kompüten die Distanz von xI bis J.
Das ist die Distanz eines Feature-Vektors, das wir in der Codebook-Vektor selektieren.
Und wir minimieren das.
Wie minimieren wir Funktionen?
Was wir letzte Woche gemacht haben, war das Folgende.
Wir komputierten dJ, dMe, N zum Beispiel, und setten das zu 0.
Und wir kamen sogar mit einer geschlossenen Lösung für die Euclidean-Distance, die wir hier benutzen haben.
Wenn wir die Euclidean-Distance zwischen xI und meJ benutzen,
bedeutet das, dass wir die L2-Norm der Differenz-Vektoren komputieren.
Wir können Dinge in geschlossener Form schreiben.
Presenters
Zugänglich über
Offener Zugang
Dauer
01:27:41 Min
Aufnahmedatum
2015-04-21
Hochgeladen am
2015-04-21 14:46:17
Sprache
en-US
This lecture first supplement the methods of preprocessing presented in Pattern Recognition 1 by some operations useful for image processing. In addition several approaches to image segmentation are shown, like edge detection, recognition of regions and textures and motion computation in image sequences. In the area of speech processing approaches to segmentation of speech signals are discussed as well as vector quantization and the theory of Hidden Markov Models.
Accordingly several methods for object recognition are shown. Above that different control strategies usable for pattern analysis systems are presented and therefore also several control algorithms e.g. the A(star) - algorithm.
Finally some formalisms for knowledge representation in pattern analysis systems and knowledge-based pattern analysis are introduced.